表格数据通常包含私人和重要信息;因此,必须在与他人共享之前采取预防措施。尽管已经提出了几种方法(例如,差异隐私和K-匿名性)以防止信息泄漏,但近年来,表格数据合成模型已变得流行,因为它们可以在数据实用程序和隐私之间进行易于权衡。但是,最近的研究表明,图像数据的生成模型容易受到会员推理攻击的影响,这可以确定是否使用给定记录来训练受害者合成模型。在本文中,我们在表格数据合成的背景下研究了成员推理攻击。我们在两个攻击方案(即一个黑色框和一个白盒攻击)下对4个最先进的表格数据合成模型进行实验,并发现成员推理攻击会严重危害这些模型。下一步,我们进行实验,以评估两种流行的差异深度学习训练算法DP-SGD和DP-GAN如何能够保护模型免受攻击。我们的主要发现是,两种算法都可以通过牺牲生成质量来减轻这种威胁。代码和数据可用:https://github.com/jayoungkim408/mia
translated by 谷歌翻译